神经网络中关于卷积池化的计算(不为整数时,卷积向下取整,池化向上取整) 您所在的位置:网站首页 darknet maxpooling输出计算 神经网络中关于卷积池化的计算(不为整数时,卷积向下取整,池化向上取整)

神经网络中关于卷积池化的计算(不为整数时,卷积向下取整,池化向上取整)

2024-07-16 17:31| 来源: 网络整理| 查看: 265

输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为:97

#输出=(input_w+2*p-k)/stride  +1

这个公式:N=(image_h + 2*pad_h – kernel_h)/stride_h+ 1

解析:

一层卷积 :注意:这里卷积是向下取整的

池化:

二层卷积:

计算尺寸不被整除只在GoogLeNet中遇到过。卷积向下取整,池化向上取整。 例如:本题 (200-5+2*1)/2+1 为99.5,取99         (99-3)/1+1 为97         (97-3+2*1)/1+1 为97 研究过网络的话看到stride为1的时候,当kernel为 3 padding为1或者kernel为5 padding为2 一看就是卷积前后尺寸不变。 计算GoogLeNet全过程的尺寸也一样。

ps:

caffe里面和darknet里面不一致,对于池化的地方。比如:下图中,对于YOLOv2_tiny,416*416的输入,经过最后一个max pool(size=2,stride=1),可以看到特征图13*13处理后还是13*13。 这就有点问题了,测试发现,Caffe中经过这一层特征图由13*13变成了12*12,会导致在Caffe下检测结果的box有偏差。 ---------------------  作者:零尾  来源:CSDN  原文:https://blog.csdn.net/lwplwf/article/details/83011667  版权声明:本文为博主原创文章,转载请附上博文链接!

---------------------  作者:boyan_RF  来源:CSDN  原文:https://blog.csdn.net/zhongjunlang/article/details/79566422  版权声明:本文为博主原创文章,转载请附上博文链接!



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有